7 - Virtualisierung [ID:11811]
50 von 1019 angezeigt

Willkommen zur Systemausbildung, Grundlagen und Aspekte von Betriebssystemen und systemnahen

Diensten. Heute die Folge Virtualisierung. Ich habe in meinen Unterlagen nachgeschaut,

das letzte Mal war 2016 und es ist dann immer wieder spannend, wenn man in der Vorbereitung

von unserem Vortrag drauf schaut, was sich alles geändert hat seitdem und da haben wir

heute auch ein bisschen dann reinschauen. Die obligatorischen Hinweise, der Vortrag wird

aufgezeichnet, sie haben alles richtig gemacht, es ist keiner in der ersten Reihe, sodass er

vielleicht mit seinem Hinterkopf eher auf der Aufzeichnung drauf ist. Aber ansonsten,

Sie wissen, während der Veranstaltung wird es aufgezeichnet, wenn Sie Fragen haben,

die Sie lieber im kleinen Rahmen stellen wollen, gerne auch im Nachgang. Worum geht es heute? Die

Frage ist also wirklich so der grundsätzliche Rundumschlag, woher kommt Virtualisierung?

Wo gibt es das? Was können wir heutzutage virtualisieren? Wo ist das sinnvoll? Was machen

wir das? Wer macht sowas? Was gibt es für Produkte dafür? Und wie schauen die klassischen

Anwendungen bei uns aus? Und nochmal so ein Ausblick einfach auch, wo stehen wir heute?

Was hat sich in der letzten Zeit getan an der Ecke? Und was sind vielleicht auch so ein bisschen

Trends? Woher es kommt ist so ein kleiner geschichtlicher Ausblick. Das ganze Thema

ist erstaunlich alt, kommt aus den 1970er Jahren, als es auf den großen IBM Großrechnen

das erste Mal das Problem gab, dass der Rechner eigentlich zu groß ist für die konkrete Anwendung.

Und man sich dann überlegt hat, wie kann man einen echten Prozessor oder mehrere echte

Prozessoren so aufteilen, dass man dort mehrere voneinander unabhängige Anwendungen drauf

ausführen kann. Und Poppik und Goldberg haben dann mal so als theoretische Informatiker

da drei Forderungen aufgestellt, nämlich zum einen die Äquivalenz, das heißt die

virtuelle Maschine muss sich genauso verhalten wie das echte Blech, zweitens die Ressourcenkontrolle

und Sicherheit, das heißt es muss klar sein, dass es nicht möglich ist die Grenze der

eigenen virtuellen Maschine zu durchbrechen und das dritte ist eben die Frage der Effizienz.

Also man kann sicherlich immer irgendwie so eine Virtualisierung herstellen, aber die

Frage ist, ist es auf effiziente Art und Weise möglich, wo man idealerweise wäre, dass

einfach es keinen Overhead für die Verwaltung der verschiedenen VMs gibt. Das wird man

nicht ganz hinkriegen, aber wir stellen fest, dass man heutzutage so vielleicht mit 10%

Overhead ganz gut hinkommt. Und für diese EBM Systeme gibt es eben schon unheimlich

lange, was ein bisschen schwieriger war und deswegen sieht man hier auch den großen Zeitsprung

drin war das Ganze auf eine Intel X86 Architektur zu verfügen zu stellen. Wir werden doch gleich

sehen warum, aber da hat VMWare, das auch aus einem MIT Projekt raus kam, haben das

erste Mal eine funktionierende, leistungsfähige Virtualisierung für die Intel Architektur

zur Verfügung gestellt, den VMWare GSX Server und da gab es dann mehrere Iterationen, es

gab dann VMWare Server und später auch das was wir heute unter ESXi kennen, aber das

schauen wir uns dann nochmal im Detail an. Letztlich läuft das immer noch auf diesem

auf diese Entwicklung zur Jahrtausendwende hinweg. Dann gab es die erste wirklich freie

Lösung, war 2004 das Xen Project, das ist inzwischen von Citrix gekauft und auch Microsoft

hat 2008 eine eigene Hyper-V Lösung mit Hyper-V vorgestellt, das ist das was wir heute in

jedem Windows Server und eigentlich auch in jedem normalen Windows 10 als Hypervisor Engine

finden. Der neueste Spaß in der Ecke ist, dass man zum Beispiel auf einem aktuellen

Windows 10 problemlos ein Linux Betriebssystem starten kann, was Microsoft intern dann in

der Virtual Machine auf dem System zur Verfügung stellt. Und, wenn wir dann in so ein bisschen

andere Richtung, was dann immer klassische Virtualisierung gehen ist, 2013 hat Docker

die erste Version zur Verfügung gestellt, hat sich nachher auch in Docker Ink umbenannt

und da wollen wir mal gucken, was denn da anders ist als an den vorherigen Ansätzen.

Grundsätzlich, wenn wir so in die Definition gehen, Virtualisierung stellt die Hardware

Ressourcen einer physikalischen Maschine an mehrere Betriebssystemumgebungen zur Verfügung.

So eine Betriebssystemumgebung ist das was wir als VM bezeichnen. Und da läuft ein kompletter

Betriebssystemkern auch auf einer richtigen VM läuft ein komplettes Windows, Linux, was

Teil einer Videoserie :

Presenters

Daniel Götz Daniel Götz

Zugänglich über

Offener Zugang

Dauer

01:27:45 Min

Aufnahmedatum

2019-07-10

Hochgeladen am

2019-07-11 01:09:02

Sprache

de-DE

Virtuelle Umgebungen sind heutzutage eher die Regel als die Ausnahme im Serverbetrieb. Aber auch im Desktop-Bereich und selbst auf Mobiltelefonen stößt man auf virtualisierte Systeme. Von den klassischen Vertretern wie Xen, VMware oder Hyper-V bis hin zu containerbasierten Lösungen wie Docker gibt es für fast alle Anforderungen eine passende Lösung zur Virtualisierung.

Diese Veranstaltung gibt einen Überblick über grundlegende Konzepte und aktuelle Virtualisierungslösungen. Dabei wird auch auf betriebliche Aspekte einer Virtualisierungsumgebung eingegangen.

Tags

systemausbildung cloud vmware docker tools virtuelle host infrastructure hardware management python server kernel virtualisierung services laufzeit container treiber hyper openstack virtualisierungstechnologien kubernetes
Einbetten
Wordpress FAU Plugin
iFrame
Teilen